El segundo es la protección de la confidencialidad, prohibiendo el uso de IA generativa en manuscritos no publicados o en procesos de revisión por pares. Además, existe un consenso sólido: una IA no puede figurar como autora científica, ya que no puede asumir responsabilidad ética o legal frente a errores, resultados falsos o impactos derivados de la investigación. Contenido humano como valor diferenciado Los especialistas coinciden en que el ecosistema se dirige hacia dos grandes dinámicas simultáneas. El debate, señalan, debería trasladarse al proceso de creación, evaluando si la tecnología aportó valor o erosionó originalidad, ética y responsabilidad. Credibilidad sigue ligada a lo humano Diversos estudios muestran que identificar un contenido como generado por IA no reduce la preferencia por textos humanos, especialmente cuando se trata de información compleja, sensible o interpretativa. Estas carencias no son técnicas, sino estructurales, y afectan la percepción del contenido, especialmente en ámbitos sensibles como la información, la opinión o el conocimiento especializado. En paralelo, Alexandre López Borrull, también profesor de los Estudios de Ciencias de la Información y de la Comunicación de la UOC, destaca que la autoría humana permite incorporar capas de contexto, valores, intención narrativa y adaptación al receptor, elementos que difícilmente pueden reproducirse mediante generación automática. Buscadores, algoritmos y nuevos criterios de valor Ante la saturación de contenidos sintéticos, buscadores y plataformas digitales han comenzado a ajustar sus algoritmos para privilegiar criterios como el EEAT (experiencia, conocimiento, autoridad y confianza, por sus siglas en inglés), que favorecen contenidos creados o firmados por personas con trayectoria verificable. Este ajuste no responde solo a criterios técnicos, sino también a una demanda social explícita. Por ahora, lo humano recupera valor simbólico y social en un entorno saturado de automatización. La IA es aceptada para tareas utilitarias, resúmenes o consultas rápidas, pero la credibilidad continúa asociándose a la autoría humana. En este contexto, etiquetas como “made by a human”, “asistido por IA” o “creado por IA” podrían modificar su significado con el tiempo. Por un lado, la aceptación plena de la IA para producir contenidos rápidos y económicos. Por otro, la valorización del contenido creado sin apoyo de IA como un distintivo de calidad diferenciada, especialmente en ámbitos donde la confianza es central. Lalueza señala que esta distinción dependerá de las preferencias de los usuarios, mientras que López Borrull propone modelos intermedios, como la etiqueta “supervisado por un experto”, donde la IA actúe como herramienta y no como sustituto. Transparencia, percepción y límites del reconocimiento Aunque la exigencia de transparencia es alta, la capacidad real de las personas para identificar contenidos sintéticos sigue siendo limitada. De acuerdo con el Pew Research Center, 76% de los adultos considera muy importante poder identificar si un contenido fue creado por una persona o por una IA. El episodio provocó críticas inmediatas y reactivó el debate sobre los límites, riesgos y responsabilidades del uso de IA en la producción de contenidos informativos. Para Ferran Lalueza, profesor de los Estudios de Ciencias de la Información y de la Comunicación de la Universitat Oberta de Catalunya (UOC), este tipo de errores no son anecdóticos, sino representativos de un fenómeno mayor: la dificultad creciente para distinguir entre contenidos humanos y sintéticos, una frontera que seguirá desdibujándose conforme avance la tecnología. Uso extendido, confianza fragmentada La adopción de la inteligencia artificial es amplia, pero no va acompañada de un nivel equivalente de confianza. En la industria de los videojuegos, el sello No Gen AI comienza a posicionarse como referencia. Estas etiquetas buscan diferenciar contenidos humanos en un ecosistema dominado por producción automatizada, y responden a una percepción emergente: lo humano comienza a asociarse con calidad, ética y conexión emocional, frente a la eficiencia mecánica. La ciencia establece límites claros a la autoría artificial En el ámbito académico, la respuesta ha sido más tajante. El Pew Research Center refuerza este diagnóstico: 50% de las personas se declara más preocupada que entusiasmada, y 53% teme una pérdida progresiva de la capacidad creativa humana. Capacidades técnicas frente a límites estructurales Desde la perspectiva académica, Lalueza subraya que la IA carece de elementos esenciales para la construcción de confianza social: autenticidad, trazabilidad clara, responsabilidad ética, compromiso verificable y empatía real. La primera es la exigencia de transparencia, obligando a declarar en qué fases se utilizó IA (traducción, corrección, análisis auxiliar). Un informe internacional elaborado en 47 países por la Melbourne Business School, en colaboración con KPMG, muestra que 66% de la población utiliza IA de forma habitual, pero solo 46% expresa confianza plena en su uso. Esta brecha se explica porque, aunque la IA es percibida como eficaz para procesar datos, persisten dudas relevantes sobre seguridad, impacto social, uso ético y consecuencias a largo plazo. Del periodismo a la ciencia, crece la demanda de autoría verificable
IA y confianza: los límites de la autoría en la era digital
El artículo analiza el creciente papel de la IA en la creación de contenidos y el desafío de preservar la autoría humana. Los expertos señalan que la confianza en la información sigue asociándose al elemento humano, subrayando la importancia de la transparencia y la responsabilidad ética. En un espacio digital saturado de contenido sintético, el contenido humano se convierte en un diferenciador clave de calidad y credibilidad.